1 Box-constrained L-BFGS Szegedy[22] 等人首次證明了可以通過對圖像添加小量的人類察覺不到的擾動誤導神經網絡做出誤分類。他們首先嘗試求解讓神經網絡做出誤分類的最小擾 ...
1 Box-constrained L-BFGS Szegedy[22] 等人首次證明了可以通過對圖像添加小量的人類察覺不到的擾動誤導神經網絡做出誤分類。他們首先嘗試求解讓神經網絡做出誤分類的最小擾 ...
自然語言處理方面的研究在近幾年取得了驚人的進步,深度神經網絡模型已經取代了許多傳統的方法。但是,當前提出的許多自然語言處理模型並不能夠反映文本的多樣特征。因此,許多研究者認為應該開辟新的研究方法,特別 ...
PGD攻擊原論文地址——https://arxiv.org/pdf/1706.06083.pdf 1.PGD攻擊的原理 PGD(Project Gradient Descent)攻擊是一種迭代 ...
目前,在對抗攻擊防御上存在三個主要方向: 1)在學習過程中修改訓練過程或者修改的輸入樣本。 2)修改網絡,比如:添加更多層/子網絡、改變損失/激活函數等。 3)當分類未見過的樣本時,用外部模型作 ...
FGSM原論文地址:https://arxiv.org/abs/1412.6572 1.FGSM的原理 FGSM的全稱是Fast Gradient Sign M ...
CW攻擊原論文地址——https://arxiv.org/pdf/1608.04644.pdf 1.CW攻擊的原理 CW攻擊是一種基於優化的攻擊,攻擊的名稱是兩個作者的首字母。首先還是貼出攻擊 ...
NDSS https://arxiv.org/abs/1812.05271 摘要中的創新點確實是對抗攻擊中值得考慮的點: 1. effective 2. evasive recogniz ...
Generating Fluent Adversarial Examples for Natural Languages ACL 2019 為自然語言生成流暢的對抗樣本 摘要 有效地構 ...
對抗防御可以從語義消歧這個角度來做,不同的模型,后備模型什么的,我覺得是有道理的,和解決未登錄詞的方式是類似的,畢竟文本方面的對抗常常是修改為UNK來發生錯誤的。怎么使用backgroud model ...